S3 Data Source কনফিগারেশন

Database Tutorials - অ্যাপাচি প্রেস্টো (Apache Presto) Data Source Integration |
152
152

Presto সিস্টেমে S3 ডেটা সোর্স কনফিগার করতে হলে, আপনাকে S3 কনফিগারেশন ফাইল তৈরি করতে হবে এবং S3 এর সাথে সংযোগ স্থাপন করতে হবে। S3 একটি জনপ্রিয় ক্লাউড স্টোরেজ সিস্টেম, যা Amazon Web Services (AWS) দ্বারা পরিচালিত হয়। Presto সিস্টেমকে S3 এর সাথে সংযুক্ত করার মাধ্যমে আপনি সেখান থেকে ডেটা পড়তে এবং বিশ্লেষণ করতে পারবেন।


প্রথমে S3 এর সাথে সংযোগের জন্য কিছু গুরুত্বপূর্ণ তথ্য

  • AWS Access Key ID: আপনার AWS অ্যাকাউন্টের মাধ্যমে প্রাপ্ত অ্যাক্সেস কী।
  • AWS Secret Access Key: আপনার অ্যাকাউন্টের জন্য প্রাপ্ত সিক্রেট অ্যাক্সেস কী।
  • S3 Endpoint: AWS S3 সিস্টেমের জন্য ডিফল্ট বা কাস্টম এন্ডপয়েন্ট।
  • Bucket Name: S3 বকেটের নাম যেখানে আপনার ডেটা রাখা হয়েছে।

১. Presto S3 Connector কনফিগারেশন

Presto S3 Data Source সংযোগের জন্য আপনাকে Presto এর hive কনফিগারেশন ফাইলটি কাস্টমাইজ করতে হবে। নিচে এই কনফিগারেশনটি কিভাবে করবেন তা বিস্তারিতভাবে দেয়া হলো।

ধাপ ১: সঠিক ফোল্ডারে কনফিগারেশন ফাইল তৈরি করুন

Presto এর কনফিগারেশন ফাইলগুলি etc/catalog/ ফোল্ডারে রাখুন। নতুন একটি .properties ফাইল তৈরি করুন (যেমন: s3.properties) এবং এতে নিচের কনফিগারেশন সেটিংস দিন।

mkdir -p /etc/presto/catalog
touch /etc/presto/catalog/s3.properties

ধাপ ২: S3 কনফিগারেশন সেট করা

/etc/presto/catalog/s3.properties ফাইলে নিচের কনফিগারেশন যোগ করুন:

connector.name=hive-hadoop2
hive.metastore.uri=thrift://localhost:9083
hive.s3.endpoint=s3.amazonaws.com
hive.s3.aws-access-key-id=<AWS_ACCESS_KEY_ID>
hive.s3.aws-secret-access-key=<AWS_SECRET_ACCESS_KEY>
hive.s3.ssl.enabled=true

বিশেষ দ্রষ্টব্য:

  • hive.metastore.uri: এটি আপনার Hive Metastore সার্ভারের URI। যদি আপনি Hive ব্যবহার করেন, তবে এই সেটিংটি গুরুত্বপূর্ণ।
  • hive.s3.endpoint: সাধারণত s3.amazonaws.com হবে, তবে আপনি যদি কোনও নির্দিষ্ট AWS অঞ্চলে থাকেন (যেমন S3 China বা S3 GovCloud), তবে এন্ডপয়েন্ট পরিবর্তন হতে পারে।
  • <AWS_ACCESS_KEY_ID> এবং <AWS_SECRET_ACCESS_KEY> এর জায়গায় আপনার নিজের AWS অ্যাক্সেস এবং সিক্রেট কী বসান।

ধাপ ৩: S3 বকেটের সাথে সংযোগ

S3 বকেট থেকে ডেটা পড়তে, আপনাকে উপরের কনফিগারেশন ফাইলটিতে সঠিক S3 বকেটের তথ্য প্রদান করতে হবে।

উদাহরণ:

hive.s3.bucket-name=my-presto-bucket

২. S3 Data Query চলানো

Presto সঠিকভাবে কনফিগার হওয়ার পরে, আপনি S3 থেকে ডেটা পড়তে SQL কোয়েরি চালাতে পারবেন।

প্রথমে S3 বকেটের সারণি তৈরি করুন (যদি প্রয়োজন হয়)

CREATE TABLE s3_table (
    id INT,
    name VARCHAR,
    date DATE
)
WITH (
    format = 'ORC',   -- অথবা 'PARQUET' বা আপনার ডেটার ফরম্যাট অনুযায়ী
    external_location = 's3://my-presto-bucket/mydata/'
);

এখানে, external_location এর মাধ্যমে আপনি S3 বকেটের পাথ উল্লেখ করছেন।

S3 থেকে ডেটা পড়া

SELECT * FROM s3_table;

৩. অতিরিক্ত কনফিগারেশন

S3 এর জন্য স্পেসিফিক কনফিগারেশন প্যারামিটার

  • hive.s3.max-upload-part-size: সীমানা সেট করে প্রতিটি S3 আপলোড পার্টের আকার। এটি বড় ফাইলের জন্য কার্যকর হতে পারে।
  • hive.s3.parquet-compatibility: যদি আপনি Parquet ফরম্যাটে ডেটা ব্যবহার করেন, এই প্যারামিটারটি true হিসেবে সেট করা যেতে পারে।
hive.s3.max-upload-part-size=128MB
hive.s3.parquet-compatibility=true

৪. S3 কনফিগারেশনে অন্যান্য প্যারামিটার

  • hive.s3.use-aws-signer-v4: এটি AWS সিগনেচার V4 প্রোটোকল ব্যবহার করতে সক্ষম করে, যা নিরাপত্তার জন্য সুবিধাজনক।
hive.s3.use-aws-signer-v4=true

Presto এর সাথে S3 এর সুবিধা

  • ক্লাউড স্কেলেবিলিটি: S3 এর সাথে সংযুক্ত হয়ে Presto অনেক বড় এবং স্কেলযোগ্য ডেটা সেট বিশ্লেষণ করতে পারে।
  • ক্লাউড বেসড ডেটা বিশ্লেষণ: Presto সহজে S3 বকেটের ডেটা বিশ্লেষণ করতে পারে, যা Cloud Analytics এবং Cloud Computing ব্যবহারকারীদের জন্য আদর্শ।
  • অত্যন্ত দ্রুত কোয়েরি এক্সিকিউশন: S3 থেকে ডেটা এক্সেস করা এবং দ্রুত বিশ্লেষণ করা Presto এর শক্তিশালী পারফরম্যান্সের কারণে সহজ হয়ে ওঠে।

এইভাবে, Presto S3 কনফিগারেশনের মাধ্যমে ক্লাউড ডেটা সোর্স থেকে দ্রুত ডেটা বিশ্লেষণ করতে সক্ষম হয়।

Content added By
টপ রেটেড অ্যাপ

স্যাট অ্যাকাডেমী অ্যাপ

আমাদের অল-ইন-ওয়ান মোবাইল অ্যাপের মাধ্যমে সীমাহীন শেখার সুযোগ উপভোগ করুন।

ভিডিও
লাইভ ক্লাস
এক্সাম
ডাউনলোড করুন
Promotion
;